home *** CD-ROM | disk | FTP | other *** search
/ SuperHack / SuperHack CD.bin / CODING / MISC / NUD-0104.ZIP / NUD-0104.TXT
Encoding:
Internet Message Format  |  1992-11-29  |  20.9 KB

  1. Return-Path: @ti.com:gately@resbld.csc.ti.com 
  2. Received: from hplabs.HP.COM by hplpm.HPL.HP.COM; Fri, 12 Aug 88 17:07:12 pdt
  3. Received: from RELAY.CS.NET by hplabs.HP.COM with SMTP ; Fri, 12 Aug 88 16:06:37 PST
  4. Received: from ti.com by RELAY.CS.NET id aa01304; 9 Aug 88 14:52 EDT
  5. Received: by ti.com id AA19108; Tue, 9 Aug 88 13:05:46 CDT
  6. Message-Id: <8808091805.AA19108@ti.com>
  7. Received: by tilde id AA02920; Tue, 9 Aug 88 12:53:04 CDT
  8. Date: Mon, 22 Dec 86 12:53:04 CDT
  9. From: "Michael T. Gately" <gately%resbld.csc.ti.com@RELAY.CS.NET>
  10. To: neuron@hplabs.hp.com, gately%tilde.csc.ti.com@RELAY.CS.NET
  11. Subject: NEURON Digest V1 / #4
  12.  
  13.  
  14. NEURON Digest       22 DEC 1986       Volume 1 Number 4
  15.  
  16. Topics in this digest --
  17.    Queries - Neurocomputer references &
  18.              Text-to-speech conversion
  19.    Replies - ICNN Questions
  20.    News - Project Proposal
  21.    Seminars/Courses - Connectionism and Cog. Linguistics
  22.    Long Messages - Physics, Dynamical systems, and Neural Networks &
  23.                    Challenge to Connectionists &
  24.                    Electromagnetic vs. Electrical signalling
  25.  
  26. -----------------------------------------------------------------
  27.  
  28. From:    CDAF@IUVAX.CS.INDIANA.EDU 22-DEC-1986 08:09
  29. To:    neuron%ti-csl.CSNET@relay.cs.net
  30. Subj:    Request for references on Neurocomputers
  31.  
  32. I have recently seen some mention of neurocomputers and am curious as to 
  33. what they really are; what level of the biological system they are trying
  34. to model, as well as the implementation.  If anybody can point me to references
  35. on the subject, or descriptions of present projects, it would very much be
  36. appreciated.  I'll summarize on the net if enough people express an interest.
  37.  
  38. Thank you  
  39.  
  40. -charles
  41.  
  42. cdaf@iuvax.csnet              Box 1662                     
  43. iuvax!cdaf                    Bloomington IN 47402-1662
  44. BCHC901@INDYCMS.BITNET        (812) 339-7354
  45.  
  46. -----------------------------
  47.  
  48. From:    LAWS@SRI-STRIPE.ARPA 22-DEC-1986 08:04
  49. To:    ailist-request@sri-ai.ARPA
  50. Subj:    Text-to-speech conversion
  51.  
  52.  
  53.     I am a graduate student in UC Santa Barbara. At present I am
  54. writing a dissertation on text-to-speech conversion using a neural network
  55. model (similar to the NETtalk experiment conducted by Sejnowski & Rosenberg.)
  56.  
  57.     I would like to get information about people working on text-to-speech
  58.  conversion projects using different approaches.
  59.  
  60.         Thanks.
  61.  
  62.                 - Umesh D. Joglekar
  63.  
  64.      e-mail : joglekar@riacs.arpa
  65.  
  66.     USnail  : Umesh D. Joglekar
  67.           Mail Stop 230-5
  68.           NASA Ames Research Center
  69.           Moffett Field, Ca 94035
  70.          
  71.               (415) 694-6921 
  72.  
  73. -----------------------------
  74.  
  75. From: gately%crl1@ti-csl.csnet 22-DEC-1986 10:41
  76. Reply to: neuron@ti-csl.csnet
  77. Subj: First Annual International Conference on Neural Networks
  78.  
  79. In reply to the questions I got concerning the message in the 
  80. last digest about the ICNN;
  81.  
  82. A) I do not know of any reduced fee for students, call Nomi 
  83.    Feldman (address below).
  84.  
  85. B) I do not knwo if the $250 before Jan 31 contains proceedings, 
  86.    call Nomi Feldman (address below).
  87.  
  88. C) Checks are to be made out to IEEE First Annual ICNN, care
  89.    of Nomi Feldman (address below).
  90.  
  91. D) I do not know if there was an official Call for Papers, or
  92.    if all the contributors have already been selected.  I suggest 
  93.    you call Maureen Caudill, ICNN, 10615G Tierransanta Blvd.,
  94.    Suted 346, San Diego, CA  92124.
  95.  
  96. E) If you have any other questions, contact Nomi Feldman (address
  97.    follows).
  98.  
  99. Nomi Feldman
  100. Conference Coordinator
  101. 3770 Tansy Street
  102. San Diego, CA  92121
  103. (619) 453-6222
  104.  
  105. -----------------------------
  106.  
  107. From:    RAVI@DUKE.csnet 22-DEC-1986 08:09
  108. To:    neuron@ti-csl
  109. Subj:    Project Proposal
  110.  
  111.  
  112. This is an idea I have for a project employing Connectionist networks.
  113. Please send me any comments you might have as I am in need of feedback.
  114.  
  115. I would like to develop a system that would take a stream of notes and
  116. determine the best way to play it on the guitar. This is not a trivial
  117. problem as there are many possible ways of playing a given note. To decide
  118. how to play something, decisions must be based on the current position
  119. of the fingers, which fingers can reach where, what is coming up, and what
  120. there has been in the past (to predict what might be coming in the future).
  121.  
  122. The main goal of the project is to build an application with a "Connectionist
  123. Model" (ballard and feldman, 1982). The guitar transcriber may not be the
  124. most fascinating project, but I think it is feasable and different from
  125. what has been done. The ability for connectionist nets to deal with multiple
  126. constraints would be exploited by such a project.
  127.  
  128. I am especially interested if something like this has been done before.
  129. What other types of problems have been solved with connectionist nets?
  130.  
  131.  
  132. Michael Lee Gleicher            (-: If it looks like I'm wandering
  133.     Duke University            (-:    around like I'm lost . . .
  134. Now appearing at : duke!ravi        (-:
  135. Or P.O.B. 5899 D.S., Durham, NC 27706    (-:   It's because I am!
  136.  
  137. -----------------------------
  138.  
  139. From:    LAWS@SRI-STRIPE.ARPA 22-DEC-1986 08:12
  140. To:    bboards@RED.RUTGERS.EDU
  141. Subj:    Princeton seminar (past) - Connectionism and Cog. Linguistics
  142.  
  143. TITLE:     Connectionism and Cognitive Linguistics
  144. SPEAKER:   George Lakoff, University of California, Berkeley
  145. DATE:      Monday, December 8
  146. LOCATION:  Princeton University, Green Hall, Langfeld Lounge
  147. TIME:      12 Noon
  148.  
  149. In the 1970's Cognitive Science developed largely under the assumption that
  150. human reason could be characterized in terms the manipulation of symbols
  151. that were to get their meaning via a relation to things in the world. This
  152. view grew out of the attempt to use mathematical logic and model theory as a
  153. basis for the study of human reasoning. Over the past decade it has become
  154. increasingly clear that such an approach cannot work. In its place there has
  155. developed a cognitive approach to semantics.  This talk will (1) provide an
  156. overview of the phenomena that have led to the development of cognitive
  157. semantics, (2) survey the mechanisms used in cognitive semantics, and (3)
  158. discuss how such mechanisms might be made sense of within the emerging
  159. connectionist theory of mind.
  160.  
  161. -----------------------------
  162.  
  163. From:    ABOULANGER@BBNG.ARPA 22-DEC-1986 08:13
  164. To:    neuron%ti-csl.csnet@RELAY.CS.NET
  165. Subj:    Physics, Dynamical systems, and Neural Networks
  166.  
  167. Included below is a message I sent to the Arpa physics mailing-list
  168. a while back. Are people on this list interested in similar topics?
  169.  
  170. Should this mailing-list be called complex-systems?
  171.  
  172. There is a new journal coming out called Complex Systems that deals
  173. with topics that are relevant to this list. The subscription price
  174. for individuals is $65. Send payment to:
  175.  
  176.     Complex Systems Publications
  177.     P.O. Box 6149
  178.         Champaign, IL 61821-8149
  179.  
  180. The University of Illinois is also starting a center for complex
  181. systems. Stephen Wolfram is the director.
  182.  
  183. There is an article on chaos in the December Scientific
  184. American. The authors of this article formed a group while they
  185. were at UCSC, called the Dynamical Systems Collective, and there
  186. is a book out on their exploits to beat the Las Vegas casinos
  187. using dynamical-systems theory called "The Eudaemonic Pie" by
  188. Thomas Bass.
  189.  
  190. Begin message:
  191.  
  192. -----------------------
  193. I have some remarks to make on the recent discussion on
  194. quantum mechanics, determinism, and randomness.
  195.  
  196. This also provides me the opportunity to suggest several topics
  197. for discussion that have not been discussed here and are of
  198. current interest to researchers in physics, computer science,
  199. and mathematics:
  200.  
  201.  
  202.    - Complex (nonlinear) dynamical systems.
  203.  
  204.    - Quantum Computers.
  205.  
  206.    - Neural-network-like architectures  for  optimization.  (Borrows  from
  207.      work in ill-condensed matter such as Ising models of spin glasses).
  208.  
  209.    - Cellular automata models of physical systems.
  210.  
  211.    - Edward Nelson's theory of quantum fluctuations, or the deBorglie-Bohm
  212.      model of quantum mechanics which postulates nonlocal potentials.
  213.  
  214.  
  215. To start things off, I will mention several articles and use
  216. them to reply to a couple of statements that have been made on
  217. this list:
  218.  
  219. [Deutsch 85]   Deutsch, D.  Quantum Theory, the Church-Turing Principle and the
  220.                Universal Quantum Computer.  Proc. R. Soc. Lond. A400:97-117,
  221.                1985.
  222.  
  223. [Erber 85]     Erber, T. and S. Putterman.  Randomness in Quantum Mechanics -
  224.                Nature's Ultimate Cryptogram?  Nature 318:41-43, November 7,
  225.                1985.
  226.  
  227. [Ford 83]      Ford, Joseph.  How Random is a Coin Toss?  Physics Today :40-47,
  228.                April, 1983.
  229.  
  230. [Hopfield 86]  Hopfield, John J., & David W. Tank.  Computing with Neural
  231.                Circuits: A Model.  Science , 8 August, 1986.
  232.  
  233. [Kirkpatrick 83]
  234.                Kirkpatrick S., C.D. Gelatt and M.P. Vecchi.  Optimization by
  235.                Simulated Annealing.  Science 220(4598):671-680, May 13, 1983.
  236.  
  237. [Marroquin 85] Marroquin, Jose Luis.  Probabilistic Solution of Inverse
  238.                Problems.  Technical Report AI-TR 860, MIT AI Lab, September,
  239.                1985.
  240.  
  241. [Wolfram 86]   Wolfram, Stephen.  Origins of Randomness in Physical Systems.
  242.                In Wolfram, Stephen (editor), Theory and Applications of
  243.                Cellular Automata, pages 298-301. World Scientific Publishing Co,
  244.                Singapore, 1986.
  245.  
  246. Ford's article is a good introduction to the exciting field of
  247. nonlinear dynamics. A point Ford makes in the paper is that it
  248. becomes hard (actually in a computer science sense) for us to
  249. distinguish between a system that is nondeterministic and one
  250. that is deterministic but nonlinear and chaotic. Nonlinear
  251. chaotic systems take small perturbations and explode them. We
  252. can actually consider a notion of deterministic randomness! Note
  253. that I do *not* mean pseudo-randomness - this arises in computer
  254. random number generators because of the finite word size.  I
  255. have read this article several times and still marvel at what it
  256. says.  [I think it would have been an interesting twist of
  257. events if quantum mechanics was developed *after* our present
  258. understanding of nonlinear systems.]
  259.  
  260. The second article is a controversial introduction to the
  261. current work in quantum computers. Deutsch's claim is that
  262. quantum computers are more powerful than Turing machines because
  263. they would be nondeterministic.
  264.  
  265. Erber's article suggests an experiment that would determine
  266. whether quantum systems are truly random or pseudorandom by doing
  267. cryptographic analysis of the fluorescence of an isolated atom.
  268. (The ability to isolate single atoms is an exciting new
  269. experimental technique.)
  270.  
  271. Kirkpatrick's article discusses simulated annealing which
  272. incorporates random numbers as a key to its workings. I offer
  273. this and the the subject of Tank's article as examples of how random
  274. numbers can be useful computation including computation in
  275. brains. I offer this in response to:
  276.  
  277.   From: "Keith F. Lynch" <KFL%MX.LCS.MIT.EDU@@MC.LCS.MIT.EDU>
  278.     Uncompensated quantum effects would act as a random number generator.
  279.   Adding data from such a "generator" would not help the brain reach any
  280.   sort of optimal decision, since the output of the "generator" would not
  281.   correlate with any factors relevant to the task at hand.
  282.  
  283. An understanding of why random numbers can be useful can be had
  284. if one appreciate the fact that many problems are inverse
  285. problems with many possible solutions.  These problems are
  286. *ill-posed* mathematically.  We are left with a search through a
  287. large space of possibilities. The search space has many local
  288. minima and random numbers are used as noise to escape local
  289. minima. An example inverse problem the brain must deal with:
  290. finding the objects and their relationships within the visual
  291. field. The Marroquin's reference is a thesis on this subject.
  292.  
  293. The article by Wolfram discusses the sources of randomness in
  294. nature. One source is the fact that many complex systems are
  295. open and are immersed in a "heat bath". In fact this can be a
  296. good source of random numbers for distributed or parallel
  297. computers.  (A typical reason why distributed computer networks
  298. are "open" is that the processor clocks of machines on a network
  299. are not synchronized.  We either have to have synchronization
  300. primitives in our programming language - which is the common
  301. means of handling this case - or we have to invent ways to
  302. program with a certain amount of "indeterminism".)  The
  303. understanding of complex behavior of computer networks requires
  304. a new set of tools than what we in computer science have been
  305. used to. This is my present area of interest.  These "open
  306. system" parallel models of computation are probably more
  307. appropriate for the brain than are serial "closed system"
  308. models.
  309.  
  310.  
  311.   From: "Keith F. Lynch" <KFL%MX.LCS.MIT.EDU@@MC.LCS.MIT.EDU>
  312.  But nothing OBSERVABLE about their effects is any different
  313.  than a random number generator, if we are talking about non-
  314.  deterministic effects.  By "quantum effect" I include only these.
  315.  I do not include things such as tunnel diodes or their equivalent (if
  316.  any) in the brain.  If I were to include those and other deterministic
  317.  devices which rely on quantum mechanics to work, I would have to
  318.  include the whole universe as a "quantum effect".
  319.  
  320. A closing observation: We all tend to confuse reality with
  321. models of reality. Quantum effects such as tunneling are
  322. empirically observable. Nondeterminism of quantum mechanics
  323. belongs to the model. In the light of deterministic randomness,
  324. how could one test for nondeterminism? I have been collecting
  325. evidence that asynchronous parallel computation in fact exhibits
  326. quantum effects such as tunneling and observer-observed
  327. interaction. By the way, this does not have to be a hidden
  328. variable type of interpretation. Time slips in the communication
  329. of information across processors deals with the topology of
  330. simulated space-time that the computation is embedded in.
  331.  
  332. Albert Boulanger
  333. BBN Labs
  334.  
  335. -----------------------------
  336.  
  337. From:    HARNAD%MIND@PRINCETON 22-DEC-1986 08:12
  338. To:    neuron@ti-csl
  339. Subj:   Challenge to Connectionists
  340.  
  341. I would like to issue a challenge to connectionists. Connectionist (C)
  342. approaches are receiving a great deal of attention lately, and many
  343. ambitious claims and expectations have been voiced. It is not clear,
  344. on the existing evidence, what the null hypothesis is or ought to be,
  345. and what would be needed to reject it. Let me propose one:
  346.  
  347. H-0: Connectionist approaches will fail to have the power to capture
  348. the capacities of the mind because they will turn out to be subject to
  349. higher-order versions of the same limitations that eliminated
  350. Perceptrons from contention.
  351.  
  352. It would seem that in order to reject H-0, meeting one or the other of the
  353. following criteria will be necessary:
  354.  
  355.     (i) Prove formally that not only is C not subject to perceptron-like
  356.     constraints, but that it does have the power to generate
  357.     mental capacity.
  358.     
  359. This first criterion is currently rather vague, since there is no well-defined
  360. formal problem that is known to be equivalent to mental capacity (in the way
  361. the traveling salesman problem is known to be equivalent to many important
  362. computational problems). The conceptual and evidential burden,
  363. however, is on those who are making positive claims.
  364.  
  365.     (ii) Demonstrate C's power to generate mental capacity empirically
  366.     by generating human performance capacity or a significant portion
  367.     of it.
  368.  
  369. The second criterion also suffers from some vagueness because there
  370. seems to be no formal, empirical or practical basis for determining
  371. when (if ever) a performance domain ceases to be a "toy" problem (like
  372. chess playing, circumscribed question-answering and
  373. object-manipulation, etc.) and becomes life-size -- apart from the
  374. Total Turing Test, which some regard as too demanding. It is also
  375. unknown whether there exists any natural (or formally partitionable)
  376. subtotal performance "module." Again, however, the conceptual and
  377. evidential burden would seem to be on those who are making positive
  378. claims.
  379.  
  380. To summarize, my challenge to connectionists is that they either
  381. provide (1) formal proof or (ii) empirical evidence for their claims
  382. about the present or future capacity of C to model human performance
  383. or its underlying function.
  384.  
  385. Conspicuously absent from the above is any mention of the brain. The
  386. brain is a red herring at this stage of investigation. Experimental
  387. neuroscientists have only the vaguest ideas about how the brain
  388. functions. They, like all other experimental scientists, must look to
  389. theory not only for hypotheses about function, but for guidance as to
  390. what to look for. There is no reason to believe, for example, that the
  391. functional level "where the action is" in the brain is anything
  392. remotely similar to our naive and simplistic picture consisting of neurons,
  393. action potentials, and their connections. It may, for example, be at the
  394. subthreshold level of graded postsynaptic potentials, or at a biochemical
  395. level, or at no level so far ascertained or even conceptualized.
  396.  
  397. At this point, taking it to be to C's credit that it is "brain-like"
  398. amounts to the blind leading the blind. Indeed, I would recommend a
  399. "modularization" between the efforts of those who test C as a neural
  400. modal and those who test it as a performance model. The former should
  401. restrict themselves to accounting for the data from experimental neuroscience
  402. and the latter should restrict themselves to accounting for performance data,
  403. with neither claiming the other's successes as bearing on the validity
  404. of their own efforts.  Otherwise, shortcomings in C's performance
  405. capacity will be overlooked or rationalized on the grounds of brain
  406. verisimilitude and shortcomings in C's brain-modeling will be overlooked
  407. or rationalized on the grounds of its cognitive capacity.
  408.  
  409. Finally, lest it be thought that AI (symbolic modeling) gets off
  410. scot-free in these considerations: AI is and should be subject to the
  411. same two criteria. "Turing power" is no better a prima facie basis for
  412. claiming to be capturing mental power in AI than "brain-likeness" is in
  413. connectionism. Indeed, C has the slight advantage that it is at least
  414. a class of algorithms rather than just a computational architecture.
  415. Hence it has some hope of showing that, what (if anything) it can
  416. ultimately do, it does by the same general means, rather than ad hoc
  417. ones gerrymandered to any problem at hand, as AI does.
  418.  
  419. Instead of indulging in mentalistic (and in C's case, also neuralistic)
  420. overinterpretations of the minuscule performance capacities of current
  421. models, both AI and C should hunker down to creating performance
  422. models that will require no embellishment or interpretation to be
  423. impressive as inroads on human performance and its functional basis.
  424. -- 
  425.  
  426. Stevan Harnad                                  (609) - 921 7771
  427. {allegra, bellcore, seismo, rutgers, packard}  !princeton!mind!harnad
  428. harnad%mind@princeton.csnet           
  429.  
  430. -----------------------------
  431.  
  432. From:    LANTZ@RED.RUTGERS.EDU 22-DEC-1986 08:12
  433. To:    neuron%ti-csl.csnet@RELAY.CS.NET
  434. Subj:    Electromagnetic vs. Electrical signalling
  435.  
  436. Let me attempt to stir some controversy:
  437.  
  438. E. Roy John, at NYU Medical Center, is one proponent of the idea that
  439. information processing in the brain is mediated by electromagnetic,
  440. rather than electrical, signals.  In the magazine "High Technology",
  441. August 1984, ("Why Can't a Computer be More Like a Brain?"), an experiment
  442. with a cat is offered as supporting evidence:
  443.  
  444.     A cat is taught to turn left at a T intersection when presented
  445. with a 2Hz tone, and to turn right when presented with a 4Hz tone.
  446. Later, the experiment was repeated using either a 2Hz or 4Hz signal applied
  447. to stimulation electrodes inserted in the cat's brain.  The cat, as would
  448. be expected, turned in the appropriate directions.  John concludes that,
  449. since the electrodes are too big to stimulate any discrete pathway,
  450. that the neurons in the brain act cooperatively.  This seems reasonable,
  451. so far.
  452.  
  453.     He then fed 2Hz signals to each of two stimulation electrodes,
  454. with the two signals being out of phase.  The cat behaved as would be
  455. expected for a 4Hz signal.  John then concludes that the electromagnetic
  456. field, as a whole, is responsible for this phenomenon.  Here is where I differ?
  457.  
  458. (Flame on!) There is no reason to suppose that the electromagnetic field is
  459. any more responsible than the simple melding of the electrical signals.
  460. It seems to me that John is being mislead, by the electromagnetic
  461. nature of EEG data, into believing some fantastic explanation.  Never
  462. depend on a complicated explanation when a simple explanation will suffice:
  463. ie. the commonly accepted theory of electrical pulses on neural axons being
  464. the primary means of communication (Flame off.)
  465.  
  466. Does anyone have any more information, or a better understanding of this
  467. question?  I'd like to hear about it.
  468.  
  469. Brian  (Lantz@Rutgers)
  470.  
  471. -----------------------------
  472.  
  473. End of NEURON Digest
  474. ********************
  475.